Miesięcznik Ubezpieczeniowy: Jakość pod presją algorytmu. Jak AI, DORA i cyberzagrożenia zmieniają definicję jakości w ubezpieczeniach?

Data: 02.09.2025
Tomasz Janas
Masz pytania? Napisz do mnie!
Tomasz Janas
Data publikacji
02.09.2025

 

Artykuł autorstwa eksperta PKF ( Tomasz Janas - Advisory Managing Director PKF Polska) ukazał się we wrześniu 2025 r. w wydaniu nr 9/2025 Miesięcznika Ubezpieczeniowego.

Jeszcze kilka sezonów temu reklamowe slogany branży ubezpieczeniowej brzmiały znajomo: „decyzja w 15 minut”, „wypłata w 48 godzin”, „infolinia 24/7”. Dziś, w świecie generatywnej sztucznej inteligencji, unijnego pakietu regulacyjnego oraz eksplozji cyberzagrożeń, te obietnice stanowią zaledwie punkt wyjścia. – Tomasz Janas


Zmieniły się pytania, które zadają klienci, regulator i inwestorzy. Klienci pytają dziś, czy algorytm wyceny jest wolny od uprzedzeń, Komisja Nadzoru Finansowego – czy system sprzedaży przetrwa atak szyfrującego złośliwego oprogramowania i czy dane osobowe nie posłużą do stworzenia fałszywego nagrania wideo wyłudzającego odszkodowanie. Takie wątpliwości przesuwają dyskusję o jakości z poziomu „doświadczeń klienta” na grunt „ładu i odporności organizacyjnej”.

W tym artykule przyglądam się trzem trendom, AI Act, DORA i rosnącej fali cyberzagrożeń, oraz temu, jak redefiniują one pojęcie jakości w ubezpieczeniach. Analizuję, jakie konsekwencje oznaczają dla zakładów ubezpieczeń, multiagencji i brokerów, a także gdzie w tej nowej układance pozostaje miejsce dla człowieka.


AI ACT: JAKOŚĆ MUSI BYĆ WYJAŚNIALNA
Unijne rozporządzenie AI Act, uchwalone w kwietniu 2025 r., klasyfikuje większość systemów sztucznej inteligencji wykorzystywanych w finansach jako „wysokiego ryzyka”. Oznacza to obowiązek pełnej przejrzystości – zarówno wobec nadzoru, jak i klientów. Jeżeli algorytm proponuje składkę OC w wysokości 1123 zł, klient ma prawo dowiedzieć się, dlaczego nie 845 zł ani 1290 zł. W praktyce firmy będą musiały prowadzić rejestr  wszystkich modeli, dokumentować dane treningowe i regularnie poddawać systemy niezależnym audytom. Nowym złotym standardem staje się Transparent Quote Ratio – odsetek ofert, których genezę doradca potrafi wytłumaczyć w mniej niż dwie minuty.

Konsekwencje? Algorytm nie może już być czarną skrzynką. Gdy w Wielkiej Brytanii jeden z insurtechów zaoferował kobietom niższe składki za jazdę w godzinach „szkolnych”, okazało się, że model nieświadomie promuje osoby pracujące na część etatu. W Polsce taki taryfikator potencjalnie naruszałby zasadę równego traktowania. Agent, który rekomenduje polisę generowaną przez AI, musi zatem rozumieć logikę modelu – inaczej może ponosić współodpowiedzialność cywilną wraz z ubezpieczycielem.


DORA: OD SZYBKOŚCI DO ODPORNOŚCI
Drugi filar zmian to Digital Operational Resilience Act. DORA każe myśleć o jakości nie w kategoriach reakcyjnych – „jak szybko podnieść system po awarii” – lecz proaktywnych: „czy potrafimy utrzymać ciągłość usług, gdy wszystko się wali”. 
Ustawa wprowadza cztery obowiązki szczególnie bolesne dla pośredników:

  • po pierwsze, kompleksowe zarządzanie ryzykiem ICT obejmujące także prywatne laptopy pracowników w trybie home office;
  • po drugie, zgłaszanie poważnych incydentów w ciągu czterech godzin do KNF i CSIRT FIN;
  • po trzecie, regularne testy odporności – od szybkich skanów podatności po symulowane ataki w modelu TLPT;
  • po czwarte, znacznie ostrzejszy nadzór nad zewnętrznymi dostawcami chmurowymi czy porównywarkami polis.

Historia z listopada 2024 r. pokazuje, jak kosztowny bywa brak przygotowania. W trakcie Black Insurance Friday trzygodzinna awaria popularnej porównywarki SaaS zatrzymała blisko trzydzieści tysięcy transakcji. Ubezpieczyciele, którzy zdążyli wdrożyć plany awaryjne zgodne z DORA, w kilka minut przekierowali ruch na zapasowe API. Ci, którzy nie mieli procedur, liczyli straty i tłumaczyli się klientom.


NOWE SPEKTRUM RYZYKA
Rozporządzenia to jedno, ale rynek kształtuje także realna kreatywność przestępców. Deepfake, syntetyczna tożsamość czy  ransomware as a service (RaaS 3.0) wywołują skutki odczuwalne wprost na wskaźnikach jakości. Gdy AI generuje perfekcyjne  zdjęcie „zalanej piwnicy”, rosną koszty likwidacji. Gdy ransomware szyfruje bazę brokerów, reputacja i zaufanie klientów pękają  jak bańka mydlana. Właśnie dlatego ocena jakości usług obejmuje dziś pytanie: czy zespół sprzedaży potrafi wykryć fałszywe zdjęcie szkody? Czy centrum obsługi klienta rozpozna wygenerowany 
przez AI głos?


PIĘĆ FILARÓW JAKOŚCI NA LATA 2025–2030
Jak więc wygląda standard jakości jutra? 

  • po pierwsze, przejrzystość, klient musi wiedzieć, skąd wzięła się cena polisy. 
  • po drugie, odporność cyfrowa, czyli dostępność systemów na poziomie „pięciu dziewiątek” (99,999%). 
  • trzecim filarem jest uczciwość algorytmów, czyli brak dyskryminacji przy ocenie ryzyka. 
  • czwarty to integralność i poufność danych – zero wycieków i koniec z podstępnymi okienkami zgody. 
  • wreszcie piąty filar: ludzka empatia. Technologia może usprawniać procesy, ale w chwili stresu klient wciąż potrzebuje rozmowy z człowiekiem. 

CZY ZATEM JAKOŚĆ DA SIĘ W PEŁNI ZAUTOMATYZOWAĆ?
Automatyzacja sprawdza się w zadaniach transakcyjnych – kalkulacji składki czy wysyłce polisy. W momencie utraty zdrowia, śmierci  bliskiej osoby czy sporu o roszczenie klient chce porozmawiać z realnym doradcą. Z tego powodu za granicą pojawia się nowy miernik – Human Touch Point Index. Bada, ile razy klient świadomie wybiera kontakt z człowiekiem, mimo dostępnego chatbota. Wyniki są pouczające: w sprawach prostych bot wystarcza, lecz w sytuacjach bardziej wymagających – 9 na 10 osób żąda interwencji konsultanta.


JAKICH KOMPETENCJI POTRZEBUJE AGENT 2.0?
Pośrednik przyszłości to nie tylko sprzedawca polisy. To tłumacz ryzyka AI na język korzyści biznesowych, „rzecznik etyki algorytmów” i ”trener higieny cybernetycznej”. Musi umieć ocenić umowę SLA z dostawcą chmurowym, wyjaśnić klientowi raport z audytu modelu oraz poprowadzić wideorozmowę, w której zweryfikuje, czy po drugiej stronie nie siedzi deepfake.


CO TRZEBA ZROBIĆ DO KOŃCA 2025 ROKU?
Pierwszy krok to inwentaryzacja wszystkich systemów AI i ocena ich ryzyka. Następnie wyznaczenie AI Compliance Officera, który zaktualizuje politykę jakości o wymóg tłumaczenia działania algorytmów. Równolegle warto przygotować plan reagowania na incydenty zgodny z DORA, podpisać aneksy „AI Rider” z insurtechami i przeprowadzić ćwiczenie phishing/deepfake wśród pracowników. Niby lista zadań wygląda jak kolejny koszt, ale finalnie działa jak polisa na reputację – a ta staje się najcenniejszym aktywem firmy.


ZAKOŃCZENIE
Jakość pod presją algorytmu nie polega już na czasie obsługi czy uśmiechu konsultanta. Dziś oznacza przejrzyste modele AI, odporną infrastrukturę, zero wycieków i realne współczucie w trudnym momencie klienta. To ambitne wymagania, ale kryją w sobie nagrodę: mniej sporów, większe zaufanie i stabilniejszy portfel. Firmy, które już dziś połączą technologię z ludzką wrażliwością, zyskają znaczącą przewagę.